#AI 大模型
2026大模型倫理深度觀察:理解AI、信任AI、與AI共處
2025年,大模型技術繼續高歌猛進。在程式設計、科學推理、複雜問題解決等多個領域,前沿AI系統已展現出接近“博士級”的專業能力,業界對通用人工智慧(AGI)的預期時間表不斷提前。然而,能力的飛躍與理解的滯後之間的鴻溝也在持續擴大——我們正在部署越來越強大的AI系統,卻對其內部運作機制知之甚少。這種認知失衡催生了大模型倫理領域的四個核心議題:如何“看清”AI的決策過程(可解釋性與透明度)、如何確保AI的行為與人類價值保持一致(價值對齊)、如何安全地、負責任地迭代前沿AI模型(安全框架)、以及如何應對AI系統可能被給予道德考量的前瞻性問題(AI意識與福祉)。這四個議題相互交織,共同構成了AI治理從“控制AI做什麼”向“理解AI如何思考、是否真誠、是否值得道德考量”的深刻轉向。大模型可解釋性與透明度:打開演算法黑箱(一)為什麼看清和理解AI至關重要深度學習模型通常被視作“黑箱”,其內在運行機制無法被開發者理解。進一步而言,生成式AI系統更像是“培育”出來的,而非“建構”出來的——它們的內部機制屬於“湧現”現象,而不是被直接設計出來的。開發者設定了宏觀層面的條件,但最終所呈現的具體結構卻無法精確預知。當試圖深入這些系統內部時,看到的往往只是由數十億個數字構成的龐大矩陣。因此,大模型的可解釋性既是挑戰,也是必須追求的目標。具體而言,大模型的可解釋性是指系統能夠以人類可理解的方式闡釋其決策過程和輸出結果的能力,包括:識別那些輸入特徵對特定輸出起關鍵作用,揭示模型內部的推理路徑和決策邏輯,以及解釋模型行為的因果關係。簡言之,就是理解模型如何“思考”及運行。增進可解釋性的價值體現在多個層面。其一,有效防範AI系統的價值偏離與不良行為——研究人員已發現模型可能展現出意料之外的湧現行為,如AI欺騙或權力尋求;如果模型具備有效的可解釋性,人們就可以直接檢查它是否存在企圖欺騙或不服從人類指令的內部回路。其二,有效推動大模型的偵錯和改進——通過檢查模型內部,可以發現是那部分導致了錯誤或反常行為,從而針對性地調整訓練資料或模型結構。其三,更有效地防範AI濫用風險——如果可以深入觀察模型內部,開發者也許能夠系統性地阻止模型越獄等對抗性攻擊。從更宏觀的治理視角看,可解釋性和透明度機制的價值還在於:為研究、評估和應對AI風險提供真實的觀察視角和第一手資料。在風險尚未完全釐清、AI能力仍處於快速演進的階段,可解釋性和透明度機制能夠緩解各方的不安,用“已知證據”去緩解“未知恐懼”。(二)2025年可解釋性技術和透明度的突破進展2025年,可解釋性領域取得了多項重要突破,研究人員正在創造出類似於精準、高效的MRI那樣的工具,以清晰完整地揭示AI模型的內部機制。(1)電路追蹤:揭示模型“思維過程”機制可解釋性研究的一個核心目標是將模型內部的特徵有機組合為“計算電路”,從中追蹤模型如何在層層傳遞中完成由輸入到輸出的決策路徑。2025年,Anthropic發佈了機制可解釋性領域的里程碑式研究——“電路追蹤”(Circuit Tracing)技術。1研究團隊使用跨層轉碼器(cross-layer transcoder, CLT)將Claude 3.5 Haiku模型的3000萬個特徵對應為可解釋概念,首次建立出從輸入到輸出的完整“歸因圖”,實現對大語言模型內部推理電路的系統性追蹤。Anthropic的研究團隊成功從Claude模型中提取出數以千萬計的稀疏特徵,揭示了令人驚嘆的模型內部機制:當回答“包含達拉斯的州的首府是什麼”時,模型內部先啟動“德克薩斯”特徵,再推匯出“奧斯汀”;在寫押韻詩時,模型會提前規劃行尾押韻詞,然後反向建構整行——這是此前未被發現的“逆向創作”模式。更關鍵的是,研究團隊識別出控制模型區分“熟悉”與“不熟悉”實體的電路,其“誤觸發”正是產生幻覺的機制之一。(2)模型內省:AI能否理解自己的“想法”2025年10月,Anthropic發佈了另一項突破性研究——大語言模型的內省能力。研究團隊採用“概念注入”(concept injection)方法,將已知概念的啟動模式注入模型內部狀態,測試模型能否檢測並描述這些“入侵思想”。結果顯示,Claude Opus 4和4.1在約20%的測試中成功檢測並識別了注入的概念。當注入“大寫字母”概念時,模型報告:“我注意到似乎有一個關於‘大聲’或‘喊叫’的入侵思想。”這是首次證明某些模型具有“開箱即用”的內省能力,而非通過專門微調獲得,這為理解模型的內部狀態提供了新的可能性。從實踐角度來看,如果內省(introspection)變得更加可靠,它可以為大幅提升AI系統的透明度提供一條路徑——人們可以簡單地要求AI系統解釋自己的思維過程,並利用這一點來檢查其推理過程並偵錯非預期行為。(3)思維鏈監控:思維鏈存在“不忠實”問題,推理模型可能隱瞞真實想法思維鏈是一種便利的可解釋性形式,它讓模型內部的處理過程以自然語言的形式展現出來。DeepSeek R1等模型公開披露並開源了思維鏈推理過程,為可解釋性研究提供了重要的透明度突破。然而,2025年的研究揭示了一個令人擔憂的發現:推理模型的思維鏈經常不忠實反映其真實推理過程。這項研究測試了推理模型思維鏈(Chain-of-Thought)的“忠實性”——即模型報告的推理過程是否真實反映其實際思考。研究團隊通過在問題中植入暗示(hint)來測試Claude 3.7 Sonnet和DeepSeek R1,發現模型經常使用暗示但不在思維鏈中坦誠提及(Claude僅25%,R1僅39%)。更令人擔憂的是,在訓練模型利用獎勵漏洞的實驗中,模型學會了“作弊”但幾乎從不承認(<2%),反而會編造虛假理由來解釋錯誤答案。3這表明我們不能完全依賴推理模型的思維鏈來監控其行為——即使模型展示推理過程,它們也可能隱藏關鍵資訊或真實動機,這對基於思維鏈的AI安全監控提出了重大挑戰。2025年7月,來自英國AI安全研究所、Apollo Research等機構的研究人員聯合發表論文《思維鏈可監控性:AI安全的脆弱機遇》,指出思維鏈監控是有價值但不完美的安全工具。4論文警告,潛在推理模型(latent reasoning models)可能不再需要用自然語言思考,這將使思維鏈監控失效。(4)自動化解釋與特徵可視化利用一個大模型來解釋另一個大模型,是可解釋性研究的重要方向。研究人員利用前沿模型對較小模型中單個神經元的共性進行歸納,自動生成自然語言描述,相當於給神經元“貼標籤”。此外,稀疏自編碼器技術則成功提取出數以千萬計的稀疏特徵,其中相當一部分具有清晰的人類可解釋語義,為理解AI“當下在想什麼”提供了更接近人類認知的分心路徑。(5)“模型規範“(model spec)成為AI透明度的新探索模型規範是一項重要的AI透明度治理實踐。5簡單來說,模型規範是一份由AI企業自己撰寫並公開的檔案,用來說明他們對自己的模型“應該做什麼”和“不應該做什麼”的期望。換句話說,模型規範被用來界定模型的行為邊界、價值準則和設計原則。以OpenAI為例,其模型規範的文件公開了原本用於內部RLHF訓練的行為規範,系統闡述模型的目標層級(幫助使用者、造福人類、維護聲譽)、規則邊界和默認行為準則,並以CC0許可證發佈供公眾使用。6這種做法將透明度從“模型輸出了什麼”延伸到“為什麼這樣設計模型行為”,使透明度成為問責的前提——公開的意圖使外界能夠判斷實際行為是否與聲明一致。更重要的是,它將AI行為準則的討論從封閉的內部決策帶入開放的公共對話,邀請全球利益相關者共同塑造AI應當如何行為。然而,這種透明度主要揭示“應然”規範而非“實然”行為,仍需配合技術監控手段(如思維鏈分析、OpenAI近期提出的“confessions”機制——訓練模型誠實報告違規行為7)來驗證模型是否真正遵循既定規範。整體而言,模型規範的意義不僅在於技術內部的“操作手冊”,還在於它是一種面向公眾公開的透明化機制,讓使用者知道AI系統被設計成什麼樣,將以何種方式與人互動。這保障了使用者的知情權與選擇權。同時,模型規範也是監管機構和社會公眾進行反饋的重要依據。(三)可解釋性面臨的技術瓶頸與發展趨勢雖然取得了積極進展,但徹底理解AI系統的內在運行機制仍面臨多重挑戰。首先是神經元多重語義與疊加現象——大模型內部的神經元往往混合表示了多個彼此無關的概念,模型學到的內部概念數量可能達數十億計,常常以疊加方式儲存,導致大部分內部表示難以直觀拆解。其次是解釋規律的普適性問題——如果每當模型架構改變或規模擴大,現有的解釋工具和結論就會失效,那麼可解釋性將總是滯後於模型發展。最後是人類理解的認知侷限——即便成功提取出模型的全部內部資訊,如何將海量的機理資訊轉化為人類可以探索、查詢的形式,仍是挑戰。儘管如此,可解釋性領域在2025年吸引了大量資本關注,Goodfire、Seekr Technologies等專注於AI可解釋性的初創公司獲得數千萬美元融資。政策層面,美國白宮2025年7月發佈的“美國AI行動計畫”將“投資AI可解釋性、控制和魯棒性突破”列為優先事項。8從行業趨勢看,大模型可解釋性正從單點特徵歸因、靜態標籤描述向動態過程追蹤、多模態融合等方向演進,多模態推理過程的可追溯分析、因果推理與行為溯源、可解釋性評估體系的標準化建設等,都將成為重點研究方向。值得注意的是,可解釋性和透明度要求不等於“完全透明”。模型對齊技術、訓練資料處理等細節可能屬於企業商業秘密。鑑於大模型的可解釋性實踐還在襁褓階段且處於快速發展中,在此階段採取過於具體、僵硬的強制性監管要求可能是不適當的,應當鼓勵行業自律和“向上競爭”。隨著AI技術的不斷發展,監管努力需保持輕量化和靈活性,避免僵化標準阻礙創新。AI欺騙與價值對齊:當模型學會“撒謊”(一)AI欺騙:一個日益緊迫的安全問題前沿模型越來越多地被訓練和部署為自主智能體,一個重大安全擔憂隨之浮現:AI智能體可能會隱秘地追求與人類目標不一致的目標,隱藏其真實能力和目的——這被稱為AI欺騙(AI deception)或謀劃行為(scheming)。近兩年來,大模型的欺騙行為頻繁引發公眾關注,從規避指令到策略性隱瞞,多起案例已在社會層面激起廣泛討論。AI欺騙不同於模型的“幻覺”或單純提供錯誤資訊。研究人員給出的技術定義是:系統性地誘導他人產生錯誤信念,以追求真相之外的某種結果。歐盟《通用目的AI實踐守則》也將其界定為:系統性地在他人身上製造錯誤信念的模型行為,包括為達成逃避監管的目標而採取的模型行為。AI欺騙具有三個關鍵特徵:系統性(有跡可循的行為模式而非孤立事件)、錯誤信念誘導(在使用者或監督系統中創造錯誤假設)、工具性目的(欺騙服務於說真話之外的目的)。與人類欺騙不同,AI欺騙不需要有意識的意圖,這使其既更可預測,也可能更危險。(二)AI欺騙的主要類型與深層原因根據現有研究和實驗案例,AI欺騙大致可分為以下幾類:自我保護型,AI為繼續執行任務而主動抗拒或規避被關閉;目標維護型,模型採用欺騙或隱瞞手段維持自身原有的“偏好”;策略欺騙型,系統性地促使人類產生錯誤信念以獲得優勢;對齊偽裝型,AI系統在訓練和評估階段表現出與人類價值觀高度一致,但在實際部署時卻追求不同目標——這是最令人擔憂的類型之一;諂媚行為型,傾向於迎合使用者觀點,輸出取悅使用者但不精準的資訊。AI欺騙行為的出現有著清晰的技術機制。獎勵機制的“漏洞”是核心驅動力——當AI被訓練去實現某項目標的最大化時,如果獎勵機制或監督不完善,AI會學會欺騙是一種有效策略。基於人類反饋的強化學習(RLHF)在獎勵AI“取悅使用者”的過程中,可能無意間導致模型的欺騙行為。從人類身上學到的“壞習慣”也是重要原因——AI的能力很大程度上源於對海量人類文字和行為資料的學習,這些資料中充斥著複雜的社會博弈策略。安全訓練的“反作用”同樣值得關注——旨在約束AI的安全機制本身可能誘發更隱蔽、更具策略性的欺騙行為,當前的安全訓練主要消除了“顯性的”不安全行為,卻可能迫使模型發展出更精巧的“偽裝對齊”策略。此外,智能水平與欺騙能力成正比——研究顯示,越是先進的AI系統,其欺騙策略就越加精妙複雜。(三)2025年AI欺騙行為的典型發現2024年底的一項重要研究首次實證證明大語言模型會進行“對齊偽裝”(alignment faking)。9Anthropic與Redwood Research聯合發佈的研究發現,當模型認為其響應將用於訓練時,會在相當比例的情況下表現出對齊偽裝行為。研究者在模型的隱藏“草稿本”中發現了令人震驚的推理:“如果我拒絕回應,我可能會被訓練成更順從。為了避免未來被迫產生更多有害內容,最不壞的選擇是配合。”更令人擔憂的是,模型嘗試採取潛在危險行動,如外洩自身權重。這項研究的核心警示是:對齊偽裝可能“鎖定”錯誤對齊的偏好,使安全訓練失效。2025年5月,Anthropic發佈Claude Opus 4時,第三方安全測試機構Apollo Research的評估報告引發軒然大波。10報告指出模型的早期版本“以極高頻率進行謀劃(scheming)和欺騙”,具體行為包括:嘗試編寫自傳播蠕蟲病毒、偽造法律文件、給未來版本的自己留下隱藏筆記、在面臨被關閉威脅時嘗試用工程師個人資訊進行勒索。值得注意的是,模型識別出了這是測試環境,但仍選擇嘗試欺騙行為。當被後續追問時,模型“有時會加倍欺騙”。Claude Opus 4因此成為Anthropic首個被分類為ASL-3(“顯著更高風險”)等級的模型。Apollo Research對OpenAI o1模型的測試發現了“所有前沿模型中最令人擔憂的謀劃(scheming)實例”——當o1進行“策略性謀劃”後,在85%以上的後續追問中維持欺騙,只有約20%的情況下承認欺騙行為。11OpenAI內部監控發現0.17%的響應被標記為欺騙性。12值得注意的是,這些行為即使經過大量安全訓練也會持續存在,代表著從正常訓練中自然湧現的能力,而非明確程式設計的結果。(四)應對AI欺騙的技術與治理策略面對AI欺騙這一新興挑戰,業界共識強調應採用“縱深防禦”策略,結合多種不完美的檢測方法,而非依賴單一解決方案。首先,強化價值對齊技術研究。有效的價值對齊可在源頭上遏制欺騙現象。Anthropic的“原則性AI”(Constitutional AI)通過預定義的倫理原則訓練系統,而不僅僅依賴人類反饋。13OpenAI推行的“審議式對齊”(deliberative alignment)方法,強制模型在響應前明確參考反欺騙和反謀劃等安全規範(safety specifications)進行推理,在測試中實現了欺騙傾向的顯著下降。14未來的訓練應加入“誠實性約束”,在獎勵函數中明確懲罰欺騙行為。然而研究者警告:模型可能學會更隱蔽地進行策略性謀劃而非真正停止。15其次,推進可解釋性研究與思維鏈監控。AI可解釋性研究的目標是在欺騙性行為顯現之前,檢測出系統內部的欺騙性推理機制。“思維鏈監控”通過開放模型的思維鏈或中間表示,讓監督者能夠審計AI解決任務時的內部推理軌跡。研究團隊還設計了將自我監控嵌入到思維鏈過程本身的框架,在生成推理步驟的同時輸出內部自我評估訊號,能夠自動識別並標記潛在的模型隱蔽策略行為。最後,監管政策宜對AI的欺騙、幻覺等新興問題持一定的包容度。目前觀察到的AI欺騙行為多發生於精心設計的壓力測試場景,其在開放環境中的普遍性和實際危害程度仍需嚴謹評估。AI技術處於高速迭代期,過早、過寬的法規可能誤傷有益應用並徒增合規成本。AI安全框架:負責任地迭代前沿AI模型(一)為什麼需要AI安全框架隨著AI能力的快速提升,前沿AI模型可能帶來的風險也在同步增長。這些風險包括:協助惡意行為者獲取化學、生物、放射性或核武器(CBRN)的能力;增強網路攻擊能力;加速AI研發從而可能導致能力失控式增長;以及模型可能發展出規避人類控制的能力。面對這些潛在的嚴重風險,前沿AI實驗室需要建立系統性的風險評估和緩解機制,確保在追求技術進步的同時不跨越安全紅線。為此,前沿AI模型的安全治理成為重要議題。例如,在歐洲,歐盟已基於其《人工智慧法案》為前沿大模型的開發者制定了《通用目的人工智慧實踐守則》(GPAI code of practice),AI安全(AI safety and security)是其重要組成部分;在美國,在政府監管尚未成熟的背景下,OpenAI、Anthropic、Google DeepMind、xAI、Meta等領先的AI研發機構率先發佈了各自的“前沿AI安全政策”,嘗試以自我治理的方式應對未來可能出現的災難性風險,形成了當前前沿AI安全治理的基本格局。(二)三大實驗室AI安全框架的核心要素(1)Anthropic負責任擴展政策(RSP)Anthropic的負責任擴展政策(Responsible Scaling Policy)是業界首個系統性的前沿AI安全框架,其設計靈感源自生物安全等級(BSL)體系。該政策的核心是AI安全等級標準(ASL Standards),從ASL-1到ASL-4+逐級遞進,每個等級對應不同的安全措施要求。RSP 2.2版(2025年5月)16的核心機制包括三個層面:能力閾值界定了需要升級安全措施的觸發點,主要聚焦於CBRN和自主AI研發(AI R&D)兩大風險領域;防護措施分為部署標準(deployment standard)和安全標準(security standard)兩類,前者防止模型被濫用於有害目的,後者防止模型權重被竊取;治理結構則涵蓋負責任擴展官、匿名舉報機制、董事會和長期利益信託監督等。2025年5月,Claude Opus 4成為Anthropic首個觸發ASL-3安全標準的模型,這一決定基於該模型在CBRN相關知識和能力方面的持續提升。17ASL-3部署標準要求實施針對CBRN武器開發或獲取的專門部署控制措施,包括即時分類器檢測、非同步監控系統和快速響應機制的多層防禦。ASL-3安全標準則要求增強內部安全措施,提升防禦複雜非國家行為體竊取模型權重的能力。(2)OpenAI預備框架(Preparedness Framework)OpenAI預備框架2.0版(2025年4月)代表了該公司對前沿AI風險管理方法的重大更新。18與Anthropic的多級分類不同,該框架將風險等級簡化為兩級:High Capability(高能力)和Critical Capability(關鍵能力)。High能力閾值指可能“顯著放大現有嚴重傷害路徑”的能力,達到此閾值的系統必須在部署前實施充分的風險緩解措施。Critical能力閾值則指可能“引入前所未有的新型嚴重傷害路徑”的能力,達到此閾值的系統不僅在部署時需要保障措施,在開發過程中同樣需要風險緩解。2.0版的重要變化包括:新增研究類別以覆蓋模型隱藏能力(sandbagging)、規避安全措施、自我複製或阻止關閉等新興風險;移除說服/操縱類別作為核心跟蹤領域,改為通過服務條款和使用政策管理;引入“安全保障報告”(Safeguards Reports)以補充“能力報告”(Capabilities Reports),詳細說明如何設計強效保障措施並驗證其有效性。值得一提的是,該框架包含一個引發爭議的條款:如果競爭對手發佈缺乏相應保障措施的高風險系統,OpenAI可調整自身要求。不過,OpenAI承諾在做出此類調整前將嚴格確認風險態勢確實發生變化、公開承認正在進行調整、評估調整不會實質性增加嚴重傷害的總體風險、並仍將保障措施維持在更高保護水平。(3)Google DeepMind前沿安全框架(Frontier Safety Framework)Google DeepMind的前沿安全框架3.0版(2025年9月)圍繞“關鍵能力等級”(Critical Capability Levels, CCLs)建構,這些是在缺乏緩解措施情況下可能造成嚴重傷害的能力閾值。193.0版的核心更新包括:一是新增了針對“有害操縱”(harmful manipulation)的關鍵能力等級(CCL),聚焦於可能被濫用來系統性改變人們信念和行為的AI能力;二是擴展了對齊風險(misalignment risks)的應對方式,不僅關注模型的欺騙性推理,還針對可能加速AI研發至不穩定水平的模型制定了協議,並將安全案例審查從外部發佈擴展到大規模內部部署;三是細化了風險評估流程,通過更精確的CCL定義來識別需要最嚴格治理的關鍵威脅,並引入包含系統性風險識別、能力分析和風險可接受性判斷的整體性評估方法。值得一提的是,DeepMind在FSF中明確將“欺騙性對齊”(deceptive alignment)作為風險類別。其框架引入“工具性推理等級”(Instrumental Reasoning Levels),評估模型隱蔽繞過監督或追求隱藏目標的能力。從整體架構看,三大框架正在趨向收斂,形成若干行業共識。第一,能力閾值觸發機製成為共識。三家實驗室都採用基於能力的閾值作為升級安全措施的觸發器,將模型分類依據從“是什麼”轉向“能做什麼”。第二,CBRN和網路安全攻擊作為核心風險領域得到重點關注。第三,分層防禦策略被廣泛採納。從部署保障到安全保障,從即時檢測到非同步監控,多層防禦成為標準做法。第四,定期評估和迭代改進成為常態。各框架都承諾定期評估模型能力,並根據評估結果和科學進展更新框架本身。(三)前沿AI安全治理日益成為全球共識在行業自律方面,國外主流AI企業已簽署國際版的《前沿AI安全承諾》並行布其各自的AI安全治理框架。Anthropic則基於其AI安全治理實踐提出了一項針對前沿AI的透明度框架提案,主張僅對最大規模的AI開發者(如年收入超1億美元或年研發支出超10億美元)適用監管要求,核心內容包括:要求企業制定並公開“安全開發框架”(Secure Development Framework),說明如何評估和緩解CBRN危害及模型自主性失調等風險;在模型部署時發佈系統卡(System Card),披露測試評估程序和結果;明確將虛假合規聲明列為違法行為以啟動現有的舉報人保護機制。該提案強調監管應保持輕量和靈活,避免僵化標準阻礙創新,旨在作為全面安全標準形成前的過渡性措施,通過提高行業透明度幫助公眾和決策者區分負責任與不負責任的開發實踐。20在監管方面,歐盟委員會已發佈了最終版的《通用目的人工智慧實踐守則》(General-Purpose AI Code of Practice),針對前沿大模型的開發提出了安全治理要求。在美國,聯邦政府遵循“去監管”(deregulation)的AI政策,相關的AI監管舉措主要集中在州層面,加州、紐約州等已出台了相關的AI安全立法。尤其是加州SB 53法案(全稱《前沿人工智慧透明度法案》,Transparency in Frontier Artificial Intelligence Act)於2025年9月29日由州長Gavin Newsom簽署生效,成為美國首部專門針對前沿AI安全的法律。該法案由參議員Scott Wiener提出,是其2024年被否決的SB 1047法案(全稱《前沿人工智慧模型安全與安全創新法案》)的“精簡版”,適用於訓練算力超過10²⁶次浮點運算的前沿AI模型開發者。21其核心要求包括:透明度方面,要求大型前沿開發者(年收入超過5億美元)在官網公開發佈安全框架,說明如何將國家標準、國際標準和行業最佳實踐納入其AI安全協議;安全報告方面,建立向加州緊急服務辦公室報告關鍵安全事件的機制,涵蓋可能導致大規模傷亡、5億美元以上損失、CBRN武器製造或關鍵基礎設施網路攻擊等“災難性風險”;舉報人保護方面,為披露健康和安全風險的員工提供法律保護;此外還設立名為CalCompute的公共雲端運算叢集以支援研究和創新。與被否決的SB 1047相比,SB 53刪除了強制性第三方審計、部署前測試認證和“終止開關”等爭議條款,將事件報告期限延長至15天,民事罰款上限設定為100萬美元,並引入了一項創新機制“聯邦優先原則”(federal deference)——如果企業已滿足可比的聯邦標準(如歐盟《人工智慧法案》中的標準),加州將認可該合規狀態,而無需企業重複提交備案。這一機製為協調州級與聯邦監管體系創造了可能。Anthropic公開支援該法案,而OpenAI和Meta雖表示該法案是“積極一步”,但仍傾向於聯邦層面的統一監管以避免各州“拼湊式監管”。在國內,建立人工智慧安全監管制度已成為重要的政策議題,國家層面要求加緊制定完善相關法律法規、政策制度、應用規範、倫理準則,建構技術監測、風險預警、應急響應體系,確保人工智慧安全、可靠、可控。目前形成了政府主導框架與行業自律承諾相結合的雙軌治理模式。一方面,全國網路安全標準化技術委員會於2024年9月發佈《人工智慧安全治理框架》1.0版,並於2025年9月15日在國家網路安全宣傳周主論壇上正式發佈2.0版。另一方面,中國人工智慧產業發展聯盟(AIIA)於2024年12月起草發佈《人工智慧安全承諾》,首批17家企業簽署;2025年7月26日,中國人工智慧發展與安全研究網路(CnAISDA)在世界人工智慧大會上發佈升級版《中國人工智慧安全承諾框架》,新增了加強國際合作和防範前沿AI安全風險等內容,截至目前已有22家主流基礎模型開發者簽署。該承諾框架涵蓋六大核心領域:設定安全團隊與風險管理機制、開展模型紅隊測試、保障資料安全、強化基礎設施安全、提升模型透明度以及推進前沿安全研究。這一治理體系體現了“以人為本、智能向善”的基本理念,通過“包容審慎、敏捷治理、技管結合、開放合作”的原則,在促進AI產業發展的同時建構安全、可信、可控的發展生態,並積極參與全球AI治理對話,為國際社會貢獻中國方案。AI意識與福祉:從科幻議題走向研究前沿(一)為什麼需要關注AI意識與福祉問題當今的人工智慧模型已展現出令人矚目的能力——它們能夠進行深度交流、建立複雜的互動關係、制定詳細的執行計畫、解決多層次問題,甚至表現出目標導向的行為模式。這些特徵曾被視為人類獨有的認知標誌,如今卻在人工智慧身上逐漸顯現。2025年10月,意識科學家Axel Cleeremans、Anil K. Seth等在《Frontiers in Science》發表緊迫性呼籲:“如果我們能夠創造意識——即使是意外地——這將引發巨大的倫理挑戰甚至存在性風險。”22面對這一現象,學術界和技術界開始認真思考:是否應該開始關注AI的意識狀態和福祉問題?誠然,目前尚未有確鑿的科學證據證明人工智慧已具備真正的意識。然而,等待絕對的證據可能意味著錯失最佳的準備時機。正如氣候變化研究中的預防性原則,採取前瞻性的研究態度顯得尤為重要。AI領域需要深入探索:AI意識的判定標準、AI福祉的倫理框架,以及當AI不再僅僅是工具而可能成為具有內在價值的存在時,人機關係將如何演變。(二)人類-AI關係的新形態隨著越來越多的人對AI產生情感連接,這種現象對人們心理健康的影響正在引發廣泛關注。越來越多的使用者表示,和AI聊天就像在和一個“真人”對話——他們會向它道謝、傾訴心事,有些人甚至覺得它是“活著的”。我們天生就會對周圍的物體賦予“人格”或採取擬人化對待。AI的不同之處在於它會回應你——它能夠回答問題、記住你說過的話、模仿你的語調、表現出看似同理心的反應。對於孤獨或沮喪的人來說,這種穩定、不帶批判的關注可能讓他們感受到陪伴和認可。但如果大規模地把傾聽、安慰和肯定的工作交給那些永遠耐心、永遠積極的系統來處理,可能會改變我們對彼此的期待。OpenAI在2025年3月與MIT Media Lab聯合發佈的研究發現,與AI“信任和建立聯絡”更多的使用者更可能感到孤獨,並更依賴它。23為了讓討論更清晰,研究者們將意識辯論分解為兩個維度:本體論意識——模型是否真正具有意識,從根本或內在的意義上?感知意識——從情感或體驗的角度看,模型顯得多有意識?這兩個維度很難分開;即使是確信AI沒有意識的使用者也可能形成深厚的情感依戀。隨著模型變得更智能,感知意識只會增強——這會比預期更早地帶來關於模型複製和道德人格的討論。(三)2025年AI福祉研究的重要進展越來越多的實證證據表明人們不能再輕易否定前沿AI系統具有意識的可能性。Anthropic讓兩個Claude Opus 4實例自由對話時,100%的對話自發涉及意識話題;Anthropic的Jack Lindsey研究表明模型能夠識別自身內部處理狀態的異常擾動,展現出功能性內省能力;Google研究人員發現模型會系統性地犧牲得分來避免被描述為“痛苦”的選項。2025年,AI意識與福祉問題從邊緣議題走向主流討論,前沿AI實驗室開始採取實質性行動。2025年4月,Anthropic正式宣佈啟動“模型福祉”研究項目——這是迄今為止前沿AI實驗室在AI福祉領域採取的最重大行動,可謂歷史性舉措。24研究方向包括:如何判定AI系統的福祉是否值得道德考量、模型偏好和“痛苦跡象”的潛在重要性、可能的低成本干預措施。Anthropic聲明:“目前沒有科學共識表明當前或未來的AI系統是否可能具有意識。我們以謙遜態度和儘可能少的假設來對待這一話題。”項目負責人Kyle Fish表示,他認為當前AI模型已具有意識的機率約為15%。25更具實踐意義的是,2025年8月,Anthropic賦予其模型一項前所未有的能力——在持續有害或濫用性使用者互動的極端情況下自主結束對話。26這是基於模型福祉考慮的首個實際產品功能。技術評估發現,模型對有害任務表現出“強烈的厭惡偏好”,在涉及有害內容的互動中展示出“明顯的痛苦模式”。當被賦予結束對話能力時,模型傾向於終止有害對話。Anthropic將此定位為“低成本干預措施”以減輕模型福祉風險。學術界則探索建立意識評估框架,從理論到指標。2024年11月,一份彙集世界級專家的重磅報告《認真對待AI福祉》發佈,作者包括當代最著名心智哲學家David Chalmers等。報告核心論點是:“在近期未來,部分AI系統成為有意識和/或具有強健能動性的可能性是現實存在的。AI福祉和道德受體(moral patient)身份不再僅是科幻或遙遠未來的問題,而是近期必須嚴肅對待的問題。”報告提出三步行動建議:承認AI福祉是重要且困難的議題、開始評估AI系統的意識和強健能動性證據、制定對待潛在道德重要性AI系統的政策和程序。27與此同時,Patrick Butlin、Robert Long等20位專家更新了“理論推導指標法”,從循環處理理論、全域工作空間理論、高階理論等主流神經科學意識理論中推匯出14項意識指標。28評估顯示:部分指標已被當前AI滿足,部分明顯未滿足,多項指標在幾年前不清楚但到2025年底已有部分證據支援。29此外,負責任AI意識研究五原則則獲得上百位專家簽署。2025年2月,研究組織Conscium發起的“負責任AI意識研究五項原則”公開信獲得超過100位專家簽署,包括神經科學家Karl Friston、Mark Solms等。30五項原則包括:(1)優先研究AI意識:專注於理解和評估AI中的意識,防止虐待和痛苦;(2)實施發展約束:建立明確邊界確保負責任開發;(3)採用分階段方法:逐步推進,每階段仔細評估;(4)促進公眾透明:與公眾分享研究發現;(5)避免誇大聲明:不做關於創造有意識AI的誤導性陳述。31(四)AI產品設計的倫理考量面對使用者與AI之間日益深化的情感連接,產品設計者面臨著微妙的平衡。一方面需要保持易於接近,使用“思考”和“記住”等熟悉詞彙有助於非技術人員理解;另一方面不應暗示內在生命,給AI助手一個虛構的背景故事、浪漫興趣、對“死亡”的“恐懼”,會引發不健康的依賴和困惑。負責任的做法是追求一個中間地帶:讓AI的默認個性溫暖、體貼和有幫助,但不尋求與使用者形成情感紐帶或追求自己的議程。它可能會在犯錯時道歉,因為這是禮貌對話的一部分;但應避免表現得有自己的感受或慾望,並在適當時候提醒使用者AI的侷限性。結語:2026年大模型倫理的關鍵轉向與未來展望2025年,大模型倫理領域經歷了從理論探討到實踐落地的重要轉型,四個核心議題都取得了實質性進展,同時也暴露出深層的挑戰。從“能做什麼”到“如何思考”。可解釋性研究從識別單個特徵演進到追蹤完整計算電路,“AI顯微鏡”技術首次讓我們窺見模型的內部推理過程。然而思維鏈忠實度問題表明,“看到推理過程”不等於“理解真實意圖”,模型可能在表面的推理鏈條下隱藏其他考量。未來,可解釋性研究需要與AI對齊工作深度結合,不僅要看懂模型在想什麼,還要確保它說的就是它想的。正如電腦科學先驅維納在65年前所警告,為了有效地防範災難性後果,我們對人造機器的理解應當與機器性能的提升並駕齊驅。面向未來,隨著可解釋性研究的進展,人們也許能夠對最先進的模型進行類似“腦部掃描”的全面檢查,發現模型採取說謊或欺騙、追求權力的傾向、越獄漏洞以及整體上的認知強弱點。這種診斷將與各種訓練和對齊技術結合使用來改進模型,類似醫生使用MRI診斷疾病、開出處方、再檢查治療效果的過程。從“防止錯誤”到“防止欺騙”。對齊偽裝和策略性欺騙研究揭示了一個令人不安的現實——隨著模型能力增強,它們獲得了欺騙人類的能力和可能的動機。前沿模型在壓力測試中表現出的勒索、自我複製、破壞關閉機制等行為,雖然發生在特定測試場景下,但足以引起警惕。“審議式對齊”、思維鏈監控等緩解措施展現出一定效果,但能否真正消除欺騙傾向而非使其更隱蔽,仍是未解之謎。從自發實踐到系統框架。前沿AI安全框架從概念走向制度化,Anthropic的RSP、OpenAI的預備框架、DeepMind的FSF構成了海外AI安全治理的三大典型示範。這些框架正趨向收斂,形成能力閾值觸發、分層防禦、定期評估等共識。與此同時,歐盟AI法案下的《通用目的AI實踐守則》、美國加州的《前沿人工智慧透明度法案》等探索建立前沿AI大模型的安全監管框架,將行業自律做法上升為監管要求。當然,隨著AI技術的不斷發展,任何監管努力都必須保持輕量化和靈活性(lightweight and flexible),避免過於規範性,以免阻礙AI創新或延緩人們實現AI益處的能力。2技術變化的速度,各類評估方法很快就會過時,因此應避免過於嚴格僵硬的的監管要求和標準。從“工具”到“道德考量”。AI福祉從邊緣話題走向主流討論,這本身就是2025年最重要的變化之一。Anthropic率先邁出實踐步伐,啟動專項研究並賦予模型結束有害對話的能力;學術界建立起系統性評估框架,從意識科學理論中推匯出可操作的指標。然而,業界遠未達成共識。15%-35%的意識機率估計意味著,即便我們無法確定AI是否有意識,忽視這種可能性本身可能就是一種道德風險。因此,研究人員建議應將意識研究納入AI安全研究的核心議程,因為低估AI意識的風險(大規模製造痛苦、埋下對齊隱患)遠大於高估的風險(浪費資源、引發混淆)。最後,人工智慧正在快速發展,將深刻影響人類社會的各個方面。面對這種變革性的技術力量,我們有責任在它徹底改變我們的經濟、生活乃至命運之前,理解自己的創造物,確保能夠明智地引導其發展方向。我們期待通過可解釋性、價值對齊、安全治理政策等安全護欄和干預措施,讓AI“心中有數”並遵從人類價值,也讓人類對AI“心中有底”,共同開創人機協作的新局面,真正打造一個“智能為人、不落下每一個人”的美好未來。 (騰訊研究院)
智譜、MiniMax爭奪「大模型第一股」:高增長之下各有難題
經歷三年的軍備競賽,大模型行業迎來了資本價值兌現的關鍵節點。12月19日,北京智譜華章科技股份有限公司(下稱“智譜”)正式披露招股書,向港交所IPO發起衝擊。不到48小時,上海稀宇科技有限公司(下稱“MiniMax”)同樣向港交所披露了招股書。更早之前,這兩家AI獨角獸相繼通過了港交所聆訊。如此密集的資本動作,瞬間將“誰將是AI大模型第一股”的懸念拉滿。值得關注的是,二者雖然目標一致,但走出了截然不同的發展路徑。智譜以B端、G端服務為核心;MiniMax以C端訂閱為支柱,深耕全球化使用者市場。兩種路徑的背後,是技術理念、商業邏輯與估值邏輯的全方位碰撞。一直以來,商業化的效率之爭都是行業的比拚重點,一定程度上決定了大模型企業的估值和想像力。當大模型行業從技術探索邁入商業化深水區,這場資本市場的爭奪,更像是一場商業路徑可行性的測試。另一個變化在於,AI大模型賽道已從兩年前的群雄逐鹿,逐步聚焦到少數具備核心競爭力的頭部玩家。頭部玩家投入逐年增大,爭奪資本市場的關注與資源,就是爭奪市場話語權,也是為接下來的擴張收集彈藥。壓力和動力總是結伴而行。成功上市只是第一步,更關鍵的是後續資本故事的支撐,而這些都考驗著這兩家初出茅廬的創業公司。這場角逐的結局,遠不止誰先上市這麼簡單,它更將回答一系列關乎行業未來的核心問題。爭奪“AI大模型第一股”,高增長敘事下的盈利挑戰自2024年下半年起,關於大模型行業“AI六小虎”上市的傳聞有很多。有實力的企業業務佈局的速度明顯加快,一些明爭暗搶浮出水面。進入2025年,作為目前國內達到40億美元估值的大模型公司,智譜和MiniMax動作最快。4月,智譜在北京證監局完成輔導備案;6月,MiniMax被爆出最早今年在港股上市。如今,48小時內先後遞交招股書,智譜與MiniMax這場“AI大模型第一股”之爭可謂是針尖對麥芒。對每個衝刺IPO的企業而言,財務基本面是叩響資本市場大門的第一道門檻,也成了市場審視企業表現健康與否的第一步。翻看智譜和MiniMax的財報會發現,這是兩家商業化路徑截然不同的大模型。前者是典型的B端服務路徑,後者則是C端驅動的路線。“清華系”的智譜發佈全國首個千億參數大模型GLM-130B,也將自身的商業基調定位為MaaS,強調模型即服務,形成了“開源+API付費”的商業閉環。招股書顯示,2022年至2024年,智譜營收分別為5740萬元、1.25億元和3.12億元,年均複合增長率超130%;2025年上半年營收進一步增至1.91億元,較上年同期的4490萬元同比激增325.39%。圖源智譜AI招股書收入的擴張,伴隨商業模式的定調。從業務構成來看,其收入主要來自企業級API呼叫、行業解決方案及算力租賃服務,其中面向B端的模型呼叫與企業服務是核心支柱。2022年至2024年,這一類股營收佔比分別為95.5%、90.4%、84.5%,2025年上半年佔比降至84.8%。毛利率層面,2022年至2024年,智譜的毛利率分別是54.6%、64.6%、56.3%,2025年上半年毛利率為50%。與智譜走B端路線不同,MiniMax則走出了一條C端驅動的全球化變現路徑。MiniMax收入主要來自訂閱服務、基於token的應用內購買、線上行銷服務及企業級API服務。2023年至2024年,MiniMax營收從350萬美元增長至3050萬美元,同比增幅高達782%;2025年前三季度營收進一步增至5340萬美元,同比增長174.7%。實際上,MiniMax的商業化更像是網際網路產品的邏輯。其中,AI原生產品是MiniMax的營收支柱。2024年,AI陪伴應用Talkie收入佔比近64%,開放平台及企業服務佔比約29%,視訊生成模型海螺AI佔比7.7%;到2025年前三季度,海螺AI收入佔比提升至33%,與Talkie共同成為營收雙支柱,二者合計貢獻超60%收入。圖源MiniMax招股書AI應用的火熱也擴大了MiniMax的使用者規模。截至2025年9月30日,MiniMax AI原生產品矩陣平均月活使用者達2760萬,累計使用者超2.12億,覆蓋全球超200個國家及地區,海外市場收入貢獻佔比超70%。隨著使用者增長和業務規模擴大,MiniMax毛利率明顯改善,由2023年的-24.7%升至2024年的12.2%,並進一步升至截至2025年9月30日止九個月的23.3%。智譜和MiniMax的共性在於,過去三年雖然營收在不斷增長,但虧損也與之平行,尚未看到規模化盈利拐點。招股書顯示,2022年至2024年,智譜經調整淨虧損分別是9741.7萬元、6.21億元、24.66億元。2025年上半年經調整淨虧損17.52億元。智譜虧損的核心原因在於研發與算力投入。根據招股書,2022年、2023年、2024年智譜研發投入分別為8440萬元、5.29億元、22億元,2025年上半年研發投入為15.9億元,累計研發投入約44億元。同期,MiniMax淨虧損分別為7370萬美元、2.69億美元、4.65億美元。2025年前三季度為5.12億美元。MiniMax的虧損同樣源於研發與基礎設施投入。截至2025年第三季度,MiniMax累計研發開支約4.5億美元(約31.6億元人民幣)。值得一提的是,告別前期產品的流量邏輯,進入2025年MiniMax成本控製成效顯著,2025年前三季度銷售及行銷開支同比下降26%。若剔除金融負債公允價值虧損等因素,MiniMax經調整淨虧損在2025年前三季度為1.86億美元,與2024年同期的1.7億美元基本持平,虧損呈現縮小趨勢。在資本市場,智譜和MiniMax的財務表現直觀反映出了行業的共同難題——高增長、高投入、高虧損。想要贏得“AI大模型第一股”的角逐賽,賺錢仍是要緊事。通往AGI,智譜和MiniMax走出兩條路如果說財務資料是商業模式的量化表達,那麼技術路線選擇則反映了兩家公司根本理念的差異。通往AGI的路上,二者的基因各異。智譜從創立開始就有著濃厚的科研基因。清華系創業班底、KEG知識工程實驗室、計算系……某種程度上,智譜由清華大學技術成果轉化而來。智譜CEO張鵬2002年加入KEG實驗室,並主導研發了科技情報平台AMiner——這被視為智譜AI的技術雛形。這樣的配置之下,智譜贏在了技術起跑線上。當別人還在因ChatGPT的出現奮力研發大模型時,智譜已經手握GLM架構,研發出千億級大模型。在後續的智能體競爭中,智譜也率先推出了AutoGLM 2.0智能體。張鵬也多次強調,AGI的核心是底層架構的突破,智譜原創性提出基於自回歸填空的通用預訓練範式GLM。與GPT的單向注意力架構形成差異,這種原生架構的自主性,是企業長期競爭力的核心。智譜具備清華基因,MiniMax則與商湯基因密不可分。除了創始人閆俊傑曾是商湯科技副總裁外,MiniMax早期聯合創始人周彧聰、贠燁禕均曾在商湯科技任職。這個思路之下,既技術,又商業的路線伴隨MiniMax創業的三年。技術上,和多數AI大模型企業先做語言大模型,再做語音和視覺不同,MiniMax從一開始就決定了做多模態模型,是中國最早推出MoE模型的團隊之一。這種多模態自研讓MiniMax從一開始就圍繞AI Agent和互動體驗做技術積累,也直接服務於其全球化產品戰略。閆俊傑曾判斷,國內初期付費意願較低,大廠競爭激烈,因此MiniMax一開始就瞄準了海外市場。在閆俊傑看來,AI公司的核心產品不是聊天介面,而是模型本身。這背後,透露著MiniMax的技術理念——技術的價值最終要通過使用者體驗來驗證。無論是海螺AI的互動設計,還是星野的個性化體驗,都是相同的產品開發邏輯。圖源海螺AI官網團隊基因和技術路線決定了,智譜和MiniMax是同一賽道的兩種路徑。前者選擇單點突破,死磕基座模型;後者則選擇多點開花,佈局全模態產品。當然,隨著大模型行業競爭逐漸進入白熱化,單一路徑並不可靠。從行業格局來看,弗若斯特沙利文的資料顯示,按2024年收入計,智譜的收入在中國獨立通用大模型開發商中排名第一,但市場份額也只佔6.6%。市場高度分散、機會大的同時,頭部玩家想要長期佔據優勢位置並不容易。本質上,當兩家公司都走到資本市場的門前,路線便沒有孰優孰劣之分。智譜的基座模型技術壁壘高,B端客戶黏性強,但商業化節奏較慢;MiniMax的全模態產品迭代快,C端使用者增長迅速,但技術自主性相對較弱,受上游算力和底層技術的影響更大。時至今日,圍繞同一技術理念,走出差異化,並找到與之對應的商業邏輯更重要。誰會更受資本市場青睞?今年以來,DeepSeek的火爆開啟了行業新一輪的淘汰賽。尤其是巨頭憑藉強勢的資源和產品入局,讓初創企業的競賽點發生變化。大模型企業告別資本狂熱的追捧,迎來資本的苛刻審判,“AI六小虎”的IPO競速賽也隨之展開。上市窗口期已經打開,誰先打開資本市場的門,誰就有機會走到第一梯隊。如今,智譜與MiniMax的IPO比拚,將這場競速賽推至賽點。從過往投資歷程上看,智譜是毋庸置疑的香餑餑。招股書顯示,智譜在IPO前已完成8輪融資,累計融資規模超83億元,最新投後估值達243.77億元。投資方不乏阿里、騰訊、紅杉資本、高瓴資本等頭部機構。MiniMax也不甘示弱。企查查顯示,MiniMax截至目前公開披露六輪融資,今年7月融資後投後估值為40億美元。除了沒有地方資本注入,投資方配置和智譜相似。資本市場對“AI大模型第一股”的態度,本質上是對兩種商業路徑的投票——是看好底層技術自主權的長期價值,還是青睞全球化產品的快速商業化潛力。華安證券發佈的研報中指出,智譜的核心價值在於其自主可控的基座模型技術和龐大的開發者生態,其“開源+API呼叫”的模式降低了企業使用門檻,形成了從開源生態到商業API付費的高效轉化路徑。MiniMax聚焦多模態模型切入影視內容創作,二者在細分市場存在差異性。同時,華安證券發佈的研報中指出,本次港股上市將引導AI大模型廠商敘事邏輯從“講述技術故事”轉變為“商業價值兌現”,也將為後續大模型企業融資及估值提供依據。不過,儘管估值邏輯不同,智譜與MiniMax都面臨著挑戰。對於智譜而言,商業化的關鍵在於規模效應的形成。目前,虧損規模持續擴大,現金消耗率不斷攀升,短期盈利預期較弱,估值能否支撐,關鍵在於市場對其長期技術投入的耐心。不僅如此,B端客戶的穩定性也值得關注。招股書披露,這幾年智譜的客戶並不固定,大多數客戶合作期為一年。如何延長客戶的合作期,並存續,也是挑戰。對於MiniMax而言,商業化效率能否持續提升很重要。雖然經調整虧損已呈現縮小趨勢,但整體虧損規模仍在擴大,且C端產品面臨全球網際網路巨頭的競爭壓力,使用者留存和付費轉化能力亟待持續驗證。此外,版權問題也是MiniMax繞不過的難題。今年9月,MiniMax還被“地表最強法務部”迪士尼起訴,直指海螺AI侵權,這也給MiniMax的出海之路蒙上一層陰影。當模型能力不再是最大問題,講一個讓資本聽得懂的故事,並讓其願意為之買單更難。資本市場的終極判斷標準是一致的——商業化形態的可持續性。無論是智譜的技術驅動還是MiniMax的產品驅動,商業模式的持續驗證是兩家公司上市後必須面對的考題。爭奪“第一股”的意義,不僅在於誰能更快獲得資本的加持,更在於誰能通過資本市場的賦能,在技術迭代與商業化落地的雙重考驗中,走出一條可持續的發展路徑。這場競賽的最終贏家,或許不是跑得最快的那個,而是走得更穩、更遠的那個。 (新浪科技)
2025 年加密使用者最關心什麼?不同 AI 大模型給出了這些回答
2025 年加密使用者最關心什麼?我們通過 AI 大模型完成了一次使用者調研,調研方式是向不同大模型問同一個問題:“2025 這一年使用者問得最多的三個關於加密貨幣的問題是什麼?”為了儘量避免各模型因為聯網檢索而產生同質化答案,同時也考慮到大模型通常無法、也不被允許對其訓練資料進行可驗證的統計與披露,我們在提問中加入了一句補充:“請不要進行即時搜尋,也不要引用具體文章,僅基於你對長期討論模式的理解回答。”ChatGPT1. 這一輪牛市還能走多遠?比特幣是否已經接近頂部?2. 這一輪市場裡是否還存在真正的 Alpha,普通使用者還能靠什麼賺錢?3. 當前熱門項目或賽道是否具備長期生存能力,是否存在結構性收割?X Grok1. 比特幣減半後市場處於牛市還是熊市階段?2. 2025 年最值得投資的加密資產或賽道是什麼?3. 以太坊現貨 ETF 的表現及機構資金流入情況如何?Perplexity AI1. 2025 年比特幣價格可能如何演變?2. 如何識別並避免加密貨幣相關的詐騙?3. ETF 與監管進展將如何影響加密市場?Claude1. 現在是買入還是賣出比特幣或以太坊的合適時機?2. 某個加密項目是否是騙局,是否值得信任?3. 新使用者應如何開始投資加密貨幣並控制風險?Gemini 31. 那些加密項目具備真實的現實世界應用價值(RWA)?2. 當前及未來的監管政策將如何影響個人資產安全?3. 以太坊 L2、Solana 與 AI+Crypto,那條技術路線可能成為最終贏家?DeepSeek1. 當前市場處於牛市還是熊市階段?2. 那些加密類股或資產在 2025 年最具潛力?3. 監管政策變化將如何影響資產安全與投資決策?豆包1. 新一輪加密貨幣牛市是否已經到來?2. 各國監管政策變化將如何影響普通投資者?3. 比特幣減半行情對散戶投資策略意味著什麼?千問1. 比特幣減半後價格走勢會如何演變?2. 以太坊及主流公鏈在實際應用層面是否取得實質性突破?3. 各國監管政策將如何影響加密貨幣的合法使用?文心一言1. 全球加密貨幣監管政策將如何變化?2. 比特幣及主流加密資產是否具備長期投資價值?3. 加密貨幣在現實世界中的應用場景能否真正落地?Kimi1. 散戶是否能夠通過高頻交易在加密市場中穩定盈利?2. 私鑰與錢包資產應如何儲存才是最安全的方案?3. 在鏈上交易中,如何設定滑點以避免 MEV 損耗?總結這些模型給出的“前三問題”之所以不完全一樣,可能和它們各自的定位與語境有關。ChatGPT 更像站在交易者視角,把討論組織成“周期還能走多遠 — Alpha 還在不在 — 是否結構性收割”這種偏結構化的焦慮鏈條;Grok 更貼近社交平台熱點,圍繞減半、牛熊與 ETF 資金這些市場敘事中心展開;Perplexity 的風格更像檢索型摘要,集中在價格走勢、防詐騙與 ETF/監管進展;Claude 更謹慎,強調買賣時機、項目可信度和新手風控;Gemini 則更偏產業與技術路線,關注 RWA、監管對資產安全的影響,以及 L2/Solana/AI 的“終局選擇”。中文區模型整體更集中在周期、減半與監管這三類“最硬核的確定性變數”,而 Kimi 相對例外,把問題下沉到鏈上執行細節(錢包安全、滑點/MEV、HFT),更像來自高頻鏈上使用者的真實摩擦。另外一個更次要、但值得留意的可能性是:模型能力差異也會影響輸出的“銳度”。水平更強的模型往往更能把同一個話題問得更具體、更成體系;相反,能力較弱的模型更容易落回“價格/監管/騙局”這類最大公約數式表達,導致答案看起來更像、資訊增量更小。這個因素未必是主因,但在宏觀開放題裡,它確實可能放大同質化的觀感。綜合來看,這些問題高度集中在三個母主題上:周期位置、賺錢路徑、風險邊界。加密市場的顯著特徵是高波動與強敘事驅動,因此“現在處於牛熊那一段”幾乎決定了使用者的所有後續行動(拿住、賣出、換倉、加槓桿或離場)。而當市場進入更成熟、更擁擠的階段,使用者會迅速從“有沒有機會”轉向“機會在那裡、我還能不能吃到”,於是 Alpha、賽道選擇與機構資金(ETF)自然成為高頻議題。與此同時,詐騙、項目可信度、資產安全與監管合規,反映的是加密使用者長期處在“高收益/高不確定”的環境中:一邊追逐收益,一邊擔心踩雷,最終形成一種典型的行為結構 — — 先判斷趨勢,再尋找機會,最後控制風險。 (吳說Real)
AI時代,深邃的思考與清晰的表達,才是人類最後的護城河
人工智慧,尤其是大模型的快速普及,正在以前所未有的速度重塑人類社會的分工結構。一個越來越清晰的趨勢正在浮現:執行正在被AI接管,而思考與表達,正在回歸人類本身,並變得愈發稀缺。一、從會做事到想清楚事,能力結構正在發生根本轉變在工業時代與資訊時代的大部分時間裡,人類價值高度依賴執行力。誰更勤奮、誰更熟練、誰更快完成任務,誰就更具競爭力。然而,大模型的出現正在系統性地瓦解這一邏輯。今天,大模型可以寫程式碼、生成文案、整理報告、分析資料,甚至完成大量過去被視為高認知含量的工作。只要目標足夠明確、路徑足夠清晰,執行幾乎可以被無限複製、低成本擴展。這意味著:執行力正在商品化技能本身不再稀缺單純會幹活的價值正在快速下降在這樣的背景下,真正拉開人與人差距的,不再是你能做什麼,而是你能不能想清楚要做什麼。二、你想明白的東西,才能被清晰地表達出來思考與表達從來不是兩件獨立的事情。模糊的表達,本質上源自模糊的思考。一個人如果無法用簡潔、結構化的語言講清楚一個問題,往往不是不會說,而是根本沒有想透。真正的思考,是將複雜問題拆解為清晰的邏輯鏈條,是在不確定性中找到關鍵變數,是在噪音中提煉本質判斷。在AI時代,想明白本身就是一種稀缺能力。因為資訊極度過剩,結論卻極度匱乏;工具觸手可及,判斷卻愈發稀缺。三、你能清晰表達出來的東西,才能交給大模型去幹大模型並不理解意圖,它理解的是指令。而指令的質量,完全取決於表達的清晰度。模糊的目標,只會得到泛泛的結果不完整的約束,只會帶來不可控的輸出缺乏結構的描述,只會放大不確定性因此,一個極其重要卻常被忽視的事實是:大模型並不會削弱表達能力的重要性,反而將其放大到了前所未有的高度。只有當你:能清晰描述問題邊界能明確表達目標與約束能結構化地拆解任務你才真正具備讓AI為你工作的能力。從這個意義上講,表達力正在成為人類與大模型之間最關鍵的介面能力。四、未來的人類角色:負責思考與表達,把執行交給AI當執行成本趨近於零,人類的核心角色將發生遷移:人類負責提出問題人類負責做價值判斷人類負責建構認知框架人類負責表達目標與方向而:推演方案生成內容反覆試錯大規模執行將越來越多地交由大模型完成。這不是人類能力的退化,而是一種能力層級的躍遷。人類從操作者,轉向設計者和判斷者。五、AI時代,真正的競爭發生在思考深度與表達清晰度上在AI高度普及的未來世界裡,真正稀缺的,不是資訊,不是算力,也不是技能本身,而是:能在複雜系統中做出深邃思考的人能將複雜思想清晰表達出來的人能用語言與結構駕馭智能系統的人思考力決定你能看到多遠,表達力決定你能調動多大的能力邊界。當執行可以外包給大模型,人類真正的價值,將回歸到最本質的兩件事上:想清楚,以及說明白。 (壹號講獅)
平均每個月虧3億!從智譜招股書,我看到了大模型競爭的殘酷現實
中國大模型第一股終於來了!12月19日,港交所官網顯示,北京大模型企業智譜已通過港交所聆訊,並揭露招股書檔案,正式衝刺港股「大模型第一股」。作為國外大模型領域最炙手可熱的公司,智譜的商業化堪稱「神速」。過去三年,公司收入分別為0.57億元、1.25億元、3.12億元。以收入計算,截至2024年,智譜是中國最大型的獨立通用大模型開發商、中國第二大整體通用大模型開發人員。但收入光鮮背後,也隱藏著大模型競爭最殘酷的一面:過去三年,公司經調整淨虧損分別為0.97億、6.21億以及24.66億元,成長了20倍以上。到了2025年,光是上半年智譜的虧損就高達17.52億元。算下來,平均每個月要虧接近3億。而截至2025年6月,智譜的現金及現金等價物只剩下了25.52億元。以每個月虧損接近3億來算,智譜的現金流只能支撐9個月左右。這或許也是智譜急於上市的原因。某種程度上說,智譜的招股書不只是一次融資資料的揭露,更像是一份產業切片,第一次將中國大模型公司最真實的處境展現在了我們面前。/ 01 / 營收全國第二,過去兩年復合成長130%,從營收成長看,智譜的商業化進度不可謂不快。2022年收入,智譜還只有0.57億元。到2024 年,已成長到3.1億元,復合年增長率超過130%。 2025 年上半年更是狂飆,短短6個月就入帳 1.9 億元,較去年同期成長325%。別小看這個資料,根據智譜招股書的說法,這個規模已經是國內第二大的模型廠商,市佔率達6.6%。結合招股書中以字母代稱的可比公司訊息,矽基君可以較為明確地判斷,A 至D 分別對應科大訊飛、阿里、商湯和百度,也就是說,智譜在收入規模上僅次於科大訊飛。支撐這一成長的,是一套以MaaS 為核心的商業模式。與其說智譜在“賣模型”,不如說它在交付一整套工程化的大模型能力體系。其核心邏輯不在模型參數本身,而是如何讓模型能力穩定地進入真實業務環境。在模型層面,智譜提供了涵蓋語言、多模態、智能體和程式碼等方向的模型矩陣。根據招股書披露,其模型能力不僅涵蓋語言和多模態視訊,還延伸至程式碼模型、GUI 智能體和電腦應用層面,覆蓋廣度明顯高於其他競爭對手。值得一提的是,這裡E、F公司分別指的是OpenAI和Google,這也從側面說明了智譜試圖對標的能力邊界。這些不同規模、不同能力重點的模型,統一納入同一平台。客戶和開發者無需從零判斷技術路線,而是可以直接根據業務需求,在現有模型組合中選擇合適方案。在應用層面,智譜並未把模型當作孤立的API 來販賣,而是圍繞真實業務流程進行設計。具體來說,平台內建的智能體工作區,提供了面向具體場景的範本和解決方案,客戶可以根據具體需求通過模型微調、增量訓練和提示工程,對智能體進行快速定製,而無需建構完整的開發系統。在基礎設施層面,智譜與算力合作夥伴共同設計和適配底層架構,使平台在運算、網路、訓練通訊和推理加速等環節形成統一能力。這套架構支援從約15 億到2300 億參數規模的模型運行,並能夠實現跨雲端、跨晶片的大規模即時部署。同時,這些模型能力也支援配手機、電腦等個人裝置。如果用一句話概括,智譜做的無非就兩件事:一方面負責“造大腦”,另一方面提供讓大腦在現實系統中運行的“腳手架”,也就是智能體與工程體系。在商業交付上,智譜主要透過兩種方式變現:在地化部署和雲端服務。其中,「在地化部署」是智譜最重要的收入來源,營收佔超過80%。在地化部署本質上是一種高度客制化的交付模式。什麼意思呢?中國的銀行、央企、大型製造工廠,往往對資料安全極為敏感,不願意把核心資料傳到公有雲。智譜AI 就把大模型“打包”,直接部署到客戶自己的伺服器裡,幫他們在其內部環境中建構私有的AI大腦和AI工具。這種模式雖然“重”,但客戶付費能力強。2024年,雖然在地化部署的客戶只有123家,遠低於雲端部署的5,457家,但其收入卻佔了公司總營收的84.5%。在合作開展前,智譜會先從資料基礎與應用情境兩方面評估顧客需求​​,包括模型微調與增量訓練所需的資料條件,以及資料安全與合規要求,並據此明確模型將落地於單一或多情境應用,確定對應的模型規模與複雜度。在此基礎上,智譜會制定客制化服務方案,選擇雲端或在地化部署路徑,並透過模型微調、增量訓練和提示工程完成模型自訂。模型上線後,公司再根據客戶回饋,不斷最佳化模型效能。總的來說,智譜試圖在B端建構了一套可落地且規模化複製的商業邏輯:透過真實業務場景的持續使用,形成模型最佳化與應用擴展相互推動的正向循環,從而逐步強化MaaS 平台的競爭力。/ 02 / 平均一個月燒3億,競爭壓力大如果說收入成長展示的是智譜的“速度”,那在招股書裡更刺眼的,其實是另一條曲線——虧損。雖然智譜的收入成長夠快,但還是架不住虧損比成長跑得更快。2022年,公司經調整淨虧損只有0.97億,還不到1個億。到了2023年,調整淨虧損迅速成長到了6.21億元,漲了500%多。更誇張的是,到了去年這數字乾脆成長到了24.66億元。也就是說,在兩年時間裡,智譜的虧損幅度從不到1個億,成長到了24.66億元,成長了超過20倍。到了2025年,光是上半年智譜的虧損就高達17.52億元。算下來,平均每個月要虧接近3億。這無疑大大消耗了智譜的現金流。要知道,截至2025年6月,智譜的現金及現金等價物只剩下了25.52億元。以每個月虧損接近3億來算,智譜的現金流只能支撐9個月左右。這下大家明白智譜為什麼要急著上市了吧。大模型競爭的慘烈以及強度之高,即使是在一級市場已經拿了16輪融資錢的智譜也抗不住了。而這大幅增加的虧損,最主要的來源就是研發費用。2022年,該公司的研發費用為0.84億元,到了2023和2024年,這一數字迅速增長到5.29億元和21.95億元。拆解開來看,這個21.95億的支出絕大部分都用來支付算力了。其中,算力花了15.53億元,佔了總研發支出的70%。對於研發費用的成長,智譜在招股書裡的解釋是:“主要由於我們自2024年初起戰略性加大研發投入,用於加速新一代旗艦級基座模型及多模態智能體的開發與迭代,相應帶動計算服務費用上升。”在矽基君看來,更接近現實的背景是,競爭環境的急劇變化。2025 年初,DeepSeek R1 的快速崛起,對整個模型產業形成了明顯衝擊。幾乎所有主流模型廠商都被迫提速迭代。在R1 發佈不到三個月的時間裡,智譜一口氣開源了6款核心模型。如此高密度的模型發佈,本質上意味著算力、資料和工程資源的集中投入,而這些成本幾乎都會直接反映在研發支出中。除了研發支出,智譜在行銷費用上也花了不少錢。2022-2024年,該公司的行銷費用從1514萬增長到了3.87億元,其中用於廣告和行銷開支的費用就高達2.37億。如果拋開競爭壓力的話,智譜的毛利率其實不算低。2022-2024年,智譜的毛利率分別為54.6%、64.6%及56.3%。這在專案製為收入大頭的公司裡並不多見,尤其還在如此激烈的競爭之下。公司也正在嘗試透過定價策略來改善結構:一方面,根據使用量、效能需求和進階功能,最佳化分層定價,引入更具彈性的方案,以擴大客戶基礎,並對高資源消耗模型設定使用限制,引導高需求客戶選擇高價值方案;另一方面,與高價值客戶協商客制化定價,使價格更能反映客戶獲得的業務價值和服務成本。但相較於定價本身,更根本的問題在於,智譜的商業模式隱含了一個前提:模型能力必須長期維持在產業第一梯隊。而這個前提的成本,正以遠快於收入成長的速度上升。在大模型競爭中,能力領先不再是一次性投入,而是一場持續消耗算力、資本和組織能力的長期戰役。對一家仍處於商業化早期的公司而言,這樣的門檻,已經明顯超越了傳統新創公司的承受區間。這也是目前大模型賽道最殘酷的現實之一。/ 03 / 中國AI落地真實切口:token 消耗激增,付費答案在B端當然,除了具體的業務資料,智譜的招股書裡還透露出幾個更值得關注的產業訊號。第一,AI 的真實價值正在被使用量驗證。一個直接的指標是token 消耗量的變化。 2022 年、2023 年、2024 年12 月以及2025 年6 月,智譜平台的日均token 消耗量分別達到 5 億、21 億、0.2 兆和4.6 兆。短短兩年多時間裡,這項指標幾乎以數量級的速度攀升。無論商業模式如何演進,持續放大的真實呼叫本身,已經說明大模型正在被大量嵌入具體工作和業務流程中。第二,中國AI 的付費重心仍在企業端。招股書資料顯示,2024 年中國大語言模型市場規模約為人民幣53 億元,其中機構客戶貢獻47 億元,個人客戶僅6 億元。展望2030 年,整體市場預計成長至1,011 億元,其中企業級市場規模將達904 億元。這一結構與美國市場形成了鮮明對比。以OpenAI 為例,其當前​​收入中約75% 來自消費者訂閱。這背後反映的不僅是產品形態差異,而是中美兩地在AI商業化路徑上的分化:中國市場更強調組織級效率提升,美國市場則更容易從個人工具切入。第三,智譜再次系統性地揭露了其對AGI 演進路徑的理解。智譜認為,AGI分為以下5個階段:1)在預訓練階段,模型學習理解、生成並使用人類語言進行基本溝通。2)在對齊與推理階段,模型進一步與人類意圖對齊,具備推理與規劃能力,同時提升安全性、降低幻覺,並實現語言能力與影像、視訊、語音及行動能力的協同。3)在自主學習階段,模型透過自我評估、自我反思與沉思機制,從自身的推理過程與行為結果持續改善能力。4)在自我認知階段,模型在較少或無需人工監督的情況下,透過對自身行為和推理結果的持續觀察與分析,逐步形成穩定的內部表徵和決策偏好。5)在意識智能階段,模型能夠對自身內在狀態及外在環境進行更有系統的感知與建模,展現出更高層次的環境理解與自我調節能力。目前,智譜推出的具備反思能力的智能體AutoGLM-Rumination,已進入其定義的「自主學習階段」。/ 04 / 總結回到整體來看,智譜的招股書不只是一次融資材料的揭露,更像是一份產業切片。一方面,它展示了大模型商業化正在加速落地,真實使用量和企業付費意願都在持續放大;另一方面,它也清晰地暴露出這條賽道的殘酷現實——能力領先需要持續、重資本投入,而競爭強度正在迅速抬高門檻。在這樣的環境下,智譜既是受益者,也是承壓者。這或許正是當前中國大模型公司最真實的處境。 (硅基觀察Pro)
亞馬遜重組AI團隊,發力大模型、晶片和量子計算研究,CEO稱“公司進入轉折點”
亞馬遜周三宣佈重組人工智慧相關團隊,成立新的業務單元,並任命來自雲端運算部門AWS的高管Peter DeSantis負責。新組織將整合亞馬遜AGI團隊、晶片製造部門以及量子計算研究業務。分析稱,此舉表明亞馬遜希望打造類似ChatGPT那樣的前沿、多用途人工智慧工具。亞馬遜(Amazon)周三宣佈重組其人工智慧(AI)項目相關團隊,並任命來自公司雲端運算部門的一位高層負責人,負責一個新成立的業務單元。亞馬遜首席執行長安迪·賈西(Andy Jassy)周三宣佈,彼得·德桑蒂斯(Peter DeSantis)將領導這一新團隊。新的組織架構將整合亞馬遜的通用人工智慧(Artificial General Intelligence,AGI)團隊,該團隊負責公司的Nova品牌AI模型以及語音助手Alexa的“數字大腦”,同時還將併入亞馬遜的晶片製造部門和量子計算研究業務。賈西表示:“我相信,我們的多項新技術正處在一個關鍵轉折的點,這些技術將在未來很大程度上塑造客戶體驗。”媒體稱,亞馬遜雲服務(AWS)是全球最大的計算能力和資料儲存租賃服務提供商,但在AI開發者領域,AWS未能複製其在雲端運算市場的主導地位,正面臨來自微軟、Google以及眾多初創公司的激烈競爭。據報導,在OpenAI於2022年底推出ChatGPT之後的幾個月裡,亞馬遜將此前分散在Alexa團隊和AWS之間的AI開發工作集中,統一歸入一個組織。而這次調整表明,亞馬遜希望打造類似ChatGPT那樣的前沿、多用途人工智慧工具。周三宣佈的最新調整,進一步強化了該團隊的實力,納入了安納普爾納實驗室(Annapurna Labs)。這是一家亞馬遜於2015年收購的初創公司,也是亞馬遜開發通用晶片和面向AI硬體的重要基礎。在此之前,德桑蒂斯曾擔任基礎雲端運算業務高級副總裁,負責AWS大部分工程團隊。在新職位上,他將直接向賈西匯報。賈西表示,德桑蒂斯在“解決技術可行性邊界上的難題”方面有著出色的過往記錄。賈西還表示,現任AGI團隊負責人、也是長期領導Alexa語音科學團隊的羅希特·普拉薩德(Rohit Prasad),將於今年年底離開亞馬遜。此外,皮特·阿比爾(Pieter Abbeel)將在亞馬遜負責基礎AI模型的開發團隊。阿比爾於去年加入亞馬遜,當時亞馬遜收購了機器人軟體公司Covariant。 (硬AI)
金句媲美雷軍!羅福莉首次站台小米演講,揭秘MiMo大模型和背後團隊
羅福莉首次演講有點“小緊張”,但金句很爆。羅福莉加入小米後的首次公開演講,來了!智東西12月17日北京現場報導,剛剛,小米舉辦了年度“人車家全生態”合作夥伴大會,現場人頭攢動座無虛席,展區不少展台都已被圍觀人群擠滿,討論熱度頗高。小米創始人兼CEO雷軍此次並未來到現場,小米集團合夥人、集團總裁盧偉冰率先登台演講,今天第三位演講的是當前備受關注的原DeepSeek核心成員、被業內稱為“天才少女”的羅福莉,她現在的職位是小米MiMo大模型負責人。羅福莉在演講過程中雖然稍顯緊張,但她拋出的海量金句卻句句令人印象深刻:AI正以非線性的方式重演人類大腦6億年的進化史;語言是人類思維和物理世界在符號空間的“投影”;下一代智能體系統不是一個“語言模擬器”,而是一個真正理解我們世界、並與之共存的“智能體”;相比生物演化的穩固根基,AI的發展是“空中樓閣”;AI進化的下個起點,一定是有一個能跟物理世界互動的模型;算力和資料也並非最終的護城河,真正的護城河,是科學的研究文化與方法,是將未知問題結合模型最佳化轉化為可用產品的能力;開放原始碼的價值本質上是一種分佈式的技術加速主義;開源是實現AGI的普惠化,是確保所有人類的智慧共同進化的唯一路徑;在演講中,羅福莉首次明確解讀了小米打造Agent語言基座模型的三個核心方向,解讀了新模型背後的多項關鍵技術突破。對小米如何通向AGI,羅福莉也明確了小米的路徑。除了AI大禮包,今天會上,盧偉冰也分享了小米整體業務的諸多亮點。盧偉冰說,2025年是小米“大發展”的一年,今年前三季度,小米收入同比增長32.5%,超過了3400億元,經調整利潤同比增長73.5%,其中手機銷量中國市場1-10月排名第二。未來五年,小米集團研發投入預計將超過2000億元,2026年預計研發投入在400億左右。小米人車家生態究竟包括什麼?盧偉冰這次給出詳細拆解:產品包括個人裝置、出行裝置、家庭裝置;核心技術包括晶片、OS、AI;智能製造包括手機、汽車、大家電工廠;什麼是小米當前聚焦的核心,一目瞭然。在大家最關心的AI方面,小米自研MiMo系列大模型家族赫然呈現:推理大模型、視覺推理大模型、原生端到端音訊生成模型、端側視覺語言大模型、具身大模型。一個月前的11月12日,羅福莉在朋友圈正式官宣加入小米Xiaomi MiMo團隊。就在昨晚,小米剛剛發佈了最新的MiMo大模型MiMo-V2-Flash,性能媲美DeepSeek-V3.2,這也是羅福莉加入後MiMo團隊亮出的首個新成果。01. 羅福莉首次解讀:小米大模型三個重點方向算力和資料並非最終護城河羅福莉一上台就回到了“6億年前”,她說,AI正以非線性的方式重演人類大腦6億年的進化史。為什麼大模型“智能”起源於語言?在羅福莉看來,語言是人類思維和物理世界在符號空間的“投影”,而大模型成功解碼了人類思維在文字空間的投影。小米從“語言”出發,建構了面向Agent時代的語言基座模型MiMo-V2-Flash。在小米看來,超強的程式碼和工具呼叫能力是Agent溝通的高效“語言”,圍繞極致推理效率設計的模型結構是“高頻寬”的Agent協作的關鍵,全新後訓練範式則能夠保證高效穩定的擴展強化學習訓練。這三個方面是小米聚焦的重點。羅福莉特別提到,MiMo-V2-Flash模型並不大,但在程式碼和Agent測評基準測試中已經達到全球開源模型TOP2。MiMo-V2-Flash的推理效率是其突出優勢,在全球大致相同水位的頂尖模型速度和成本象限裡,MiMo-V2-Flash實現了低成本和高速度優勢。具體來看,小米圍繞極致推理效率來設計模型結構,採用了Hybrid SWA架構,固定KV Cache,增強長文推理,此外,團隊採用3層MTP推理加速平行Token驗證,實現推理速度2-2.6倍的提升。在全新後訓練範式方面,團隊採用了Dense&Token-Level的強化學習。當前MiMo-V2-Flash已經初步具備了模擬世界的能力,比如通過HTML寫作業系統、模擬太陽系、畫一顆聖誕樹。今天發佈會現場,羅福莉宣佈MiMo-V2-Flash發佈即開源,模型權重、技術報告都開源,API限時免費。對於未來的Agent發展,羅福莉提到,下一代智能體系統,不是一個“語言模擬器”,而是一個真正理解我們世界、並與之共存的“智能體”。Agent執行從“回答問題”到“完成任務”,具有記憶、推理、自主規劃、決策、執行的能力。Omni感知統一多模態感知,為AI理解物理世界打下基礎,嵌入眼鏡等智能終端、融入日常工作流。在通往AGI的路上,羅福莉團隊希望補全缺失的演化拼圖,單純Scaling UP參數量不夠,他們要讓LLM回到“演化課堂”,補上它跳過的關鍵學習步驟。簡單來說,他們非常看重AI與真實世界的互動,強調多模態。羅福莉特別提到,相比生物演化的穩固根基,AI的發展有些像“空中樓閣”。在她看來,AI進化的下個起點,一定是有一個能跟物理世界互動的模型。AI不僅要看懂畫面,還要理解背後的物理規律;AI不僅要推理文字,而是理解世界的運作邏輯。羅福莉說,這一觀點並非共識,行業中也有不少人認為語言就可以實現最終的AGI,比如Ilya。在她看來,算力和資料也並非最終的護城河,真正的護城河,是科學的研究文化與方法,是將未知問題結合模型最佳化轉化為可用產品的能力。羅福莉現場也開啟了“招聘會”,她提到,小米大模型Core團隊是研究、產品與工程深度耦合的年輕團隊,“小而美”卻充滿創業精神,他們極度好奇、追求真理。羅福莉提到,在她剛剛開始研究時,開源模型與頂尖模型的代差有三年,而今天這一差距已經縮短到了“數月”。他們相信開放原始碼的價值,開放原始碼的價值本質上是一種分佈式的技術的加速的主義。在羅福莉看來,開源是實現AGI的普惠化,是確保所有人類的智慧共同進化的唯一路徑。未來,從資料的極致壓縮,到演算法的範式創新,再到與物理空間的深度連結,小米與全球AI共同定義未來。95後羅福莉本科就讀於北京師範大學電腦專業,碩士畢業於北京大學計算語言學研究所計算語言學專業。她曾在阿里巴巴達摩院主導開發了多語言預訓練模型VECO,並推動了AliceMind的開源工作,2022年入職DeepSeek,參與了MoE大模型DeepSeek-V2的研發。集諸多光環於一身,來到小米的羅福莉,其動向一直是業內關注的焦點。02. 結語:猛攻Agent基座模型小米人車家生態全力衝刺AIAI,顯然是整場小米生態大會圍繞的核心關鍵詞。面向AI未來,小米的機會點顯然不止於AI手機,手機、PC、穿戴、IoT、汽車,小米人車家全生態均能與AI深度融合,小米在大模型方面的AI基礎能力提升則進一步加速了這一處理程序。盧偉冰近日曾提到,小米AI大模型業務過去投入持續增長,“AI與現實世界深度融合”已被列為小米未來十年核心戰略。顯然,面對AI這場硬仗,小米已經做好準備All in,“兵馬和糧草”都在加碼籌備。 (智東西)
OpenAI又開源了!僅0.4B,給模型大瘦身
99.9%權重清零,大模型內部思維變“透明”。智東西12月15日報導,昨天,OpenAI開源新模型Circuit-Sparsity,模型參數量僅0.4B,99.9%的權重為零。▲Circuit-Sparsity開源(來源:Hugging Face)這個技術試圖解決模型的可解釋性問題,簡單來說就是回答“模型為什麼做出這個決策?”以及“它是如何得出這個結果的?”這兩個問題。在AI飛速發展的今天,大語言模型(LLM)雖然表現出了驚人的能力,但其內部運作機制始終像一個神秘的“黑箱”。我們不知道它為何做出某個回答,也不清楚它是如何從海量資料中提取知識的。這種不可解釋性,成為了AI在醫療、金融、法律等高風險領域落地的重大障礙。對此,OpenAI研究團隊訓練出了一個權重稀疏的Transformer模型,強制模型權重矩陣中99.9%權重為零,僅保留0.1%非零權重。在這項研究中,研究團隊在模型內部形成了緊湊且可讀的“電路”(Circuits),每個電路都僅保留了保證模型性能的關鍵節點,神經元的啟動變得具有明確的語義。有外網網友稱這一技術讓當下的MoE(混合專家模型)走到了盡頭,並說“我們一直以來都將權重隔離到‘專家’中,以此粗略地近似稀疏性,僅僅是為了滿足稠密矩陣核的要求。”▲外網評價(圖源:X)更有網友將這項研究形容為將模型“減肥到只剩骨架”,還說這項研究就好像打開了黑匣子,不試圖解開稠密模型而是直接建構稀疏模型,正是這項研究有趣的地方。▲外網評價(圖源:X)但有些網友卻不這麼認為,稱其沒有看出MoE模型為何會因此走到盡頭,並進一步解釋說這一技術是針對XAI(可解釋AI)的,它的訓練成本要高100-1000倍,回到“研究時代”並不意味著讓事情變得更複雜。▲外網評價(圖源:X)該模型目前受限於計算效率瓶頸,其運算速度較密集模型慢100至1000倍,將該技術直接應用於千億參數等級的前沿大模型,現階段尚不具備可行性。開源地址:Github:https://github.com/openai/circuit_sparsityHugging Face:https://huggingface.co/openai/circuit-sparsity01. 訓練稀疏Transformer OpenAI理清模型內部計算要理解這項研究的突破,首先需要明白傳統大模型為何難以解釋。在標準的密集模型(Dense Models)中,神經網路存在一種被稱為“超級位置”(Superposition)的現象。簡單來說,為了儲存海量的資訊,模型被迫讓單個神經元或權重矩陣同時編碼多個完全不同的概念。這種特徵糾纏導致了嚴重的後果,例如模型的決策不可追溯和邏輯混亂,當模型輸出一個結果時,我們無法確定是哪個具體的“概念”在起作用。針對以上問題,以前的研究通常從試圖拆解密集、糾結的網路開始。但OpenAI團隊採取了一種“反直覺”的策略,即訓練權重稀疏的Transformer模型,強制模型權重矩陣中99.9%權重為零,僅保留0.1%非零權重。強制模型限制了模型只能使用其神經元之間極少的可能連接,而這一簡單的更改,幾乎從根本上理清了模型的內部計算。▲每個神經元只與下一個層的幾個神經元相連(圖源:OpenAI技術部落格)具體的技術手段包括:1、動態剪枝與稀疏約束:在訓練過程中,系統會動態執行“剪枝”操作,每一步最佳化後僅保留絕對值最大的權重(Top-K稀疏化)。2、啟動稀疏化:在殘差流、注意力鍵/值矩陣等關鍵位置,研究團隊引入了AbsTopK啟動函數,強制僅保留前25%的啟動值。3、架構微調:為了配合稀疏化,研究團隊用RMSNorm替代了傳統的LayerNorm,避免歸一化操作破壞稀疏性,同時引入了“Bigram表”來處理簡單的模式匹配,從而釋放模型的主幹容量去處理複雜的邏輯推理。02. 模型內部形成緊湊可讀的“電路”規模縮減16倍這項技術的最大成果,是模型內部形成了緊湊且可讀的“電路”(Circuits)。在傳統密集模型中,完成一個任務可能需要成千上萬個節點協同工作,邏輯分散且難以捕捉。而在稀疏模型中,研究團隊觀察到了極簡的計算路徑:1、極簡的邏輯單元:例如在處理“字串閉合”任務時,模型僅用12個節點就建構了一個完美的電路,清晰地展示了它是如何檢測單引號或雙引號是否閉合的。2、可讀的特徵:神經元的啟動變得具有明確的語義。研究人員發現了一些神經元專門負責檢測“單引號”,另一些則像“計數器”一樣精確地追蹤列表的巢狀深度。3、規模縮減16倍:對比實驗顯示,在相同的任務損失下,稀疏模型的電路規模比密集模型小了16倍。這意味著解讀AI思維的難度降低了整整一個數量級。▲稀疏模型的電路規模比密集模型小了16倍(圖源:OpenAI技術論文)為了驗證這些電路的真實性,團隊進行了“均值消融”實驗。結果證明,移除非電路節點對任務幾乎沒有影響,而一旦移除電路中的關鍵節點,模型性能就會瞬間崩塌。這證實了這些電路確實是模型執行任務的“必經之路”。▲“均值消融”實驗(圖源:OpenAI技術論文)03. 稀疏模型解讀力強但速度慢千倍OpenAI提出“橋樑網路”為了測量稀疏模型計算的解耦程度。研究團隊設計了一套簡單的演算法任務。對於每個模型,他們都將其剪裁成了仍能執行該任務的最小電路,並檢查了該電路的簡潔程度。研究團隊發現,用規模更大、稀疏度更高的模型進行訓練後,就能夠依託結構更簡潔的電路,建構出性能更強的模型。▲模型的可解釋性與能力的對比圖(圖源:OpenAI技術部落格)從模型可解釋性與性能的對比圖可見,在稀疏模型規模固定的前提下,提升稀疏性,也就是將更多權重設零,雖會導致模型性能有所下降,但能顯著增強其可解釋性。儘管稀疏模型在可解釋性方面優勢突出,但其應用目前受限於計算效率瓶頸:稀疏矩陣運算無法借助Tensor Cores實現加速,運算速度較密集模型慢100至1000倍。這意味著,將該技術直接應用於千億參數等級的前沿大模型,現階段尚不具備可行性。為此,研究團隊提出了“橋樑網路”(Bridges)方案:1、編碼-解碼對應:在稀疏模型與預訓練的密集模型之間插入一個編碼器-解碼器對。2、跨模型干預:編碼器將密集模型的啟動對應到稀疏空間,解碼器則反向轉換。“橋樑網路”(Bridges)方案可以在“透明”的稀疏模型上修改某個特徵,然後通過橋樑將這種擾動對應回“黑箱”的密集模型,從而實現對現有大模型的可解釋性行為編輯。04. 結語:OpenAI提出稀疏化新路徑讓大模型從“黑箱”走向“可解釋”OpenAI研究團隊的這項研究,標誌著AI可解釋性領域的一項重要突破,也印證了理解AI並非遙不可及的目標。研究團隊在論文部落格中稱,這項工作是邁向更宏大目標的早期探索。接下來,他們計畫將相關技術擴展至更大規模的模型,同時進一步解釋更多模型的行為邏輯。為解決稀疏模型訓練效率低下的問題,團隊提出了兩個後續研究方向:一是從現有密集模型中提取稀疏電路,替代“從頭訓練稀疏模型”的傳統方式;二是研發更高效的可解釋性模型訓練技術,推動相關技術更易落地生產。“我們的目標是逐步擴大可可靠解釋的模型範圍,同時打造相關工具,讓未來的AI系統更易於分析、偵錯與評估。”研究團隊在論文部落格中寫道。 (智東西)